
Đoàn Chủ trì thảo luận tại phiên thảo luận.
Trong bối cảnh hình ảnh, giọng nói và video do AI tạo ra có thể đánh lừa người dùng như thật, nhiều đại biểu nhấn mạnh rằng, minh bạch phải là “tuyến phòng thủ đầu tiên”. Đại biểu Thạch Phước Bình (Vĩnh Long) đề nghị bổ sung rõ khái niệm “nội dung giả lập”, “đầu ra do AI tạo” và “tương tác với AI” để tạo cơ sở pháp lý cho việc gắn nhãn cảnh báo người dùng. Theo ông, quy định trong dự thảo đã xác lập nghĩa vụ gắn nhãn nhưng chưa chỉ rõ nội dung nào phải gắn nhãn bắt buộc và mức độ thể hiện các nhãn này ra sao để vừa bảo vệ người dùng vừa không gây cản trở sáng tạo. Đại biểu cũng đề nghị tăng trách nhiệm của các nền tảng mạng xã hội trong phát hiện và xử lý nội dung do AI tạo ra.
Cùng quan điểm, Đại biểu Trinh Thị Tú Anh (Lâm Đồng) cho rằng, nếu không thống nhất tiêu chuẩn kỹ thuật trong gắn nhãn nội dung AI, hệ thống nhận diện sẽ không thể hoạt động hiệu quả. Bà cảnh báo, mỗi doanh nghiệp nếu áp dụng một chuẩn khác nhau sẽ gây xung đột, thậm chí có thể bị mô hình nguồn mở “bỏ qua” nếu tiêu chuẩn không được thiết kế an toàn. Đại biểu đề xuất dự thảo luật cần quy định nguyên tắc tiêu chuẩn kỹ thuật phải tương thích với chuẩn quốc tế, nhằm đảm bảo tính thống nhất trong quản lý và giám sát.
Một số ý kiến khác cho rằng minh bạch không chỉ là nghĩa vụ của bên phát triển công nghệ mà còn phải mở rộng sang các nền tảng trung gian. Đại biểu Dương Khắc Mai (Lâm Đồng) yêu cầu bổ sung trách nhiệm đối với mạng xã hội – nơi nội dung giả mạo lan truyền nhanh nhất – đồng thời cần có chế tài mạnh đối với hành vi cố tình gỡ nhãn hoặc dùng kỹ thuật che giấu để đánh lừa người dùng.
Song hành với yêu cầu minh bạch, vấn đề trách nhiệm bồi thường khi AI gây tổn hại cũng được nhiều đại biểu phân tích sâu. Đại biểu Phạm Văn Hòa (Đồng Tháp) nhấn mạnh rằng một hệ thống AI có thể liên quan đến nhiều chủ thể, nhà phát triển, đơn vị cung cấp, bên triển khai và người sử dụng do đó không thể “đổ hết trách nhiệm” cho một bên duy nhất. Ông đề nghị luật phải phân lớp trách nhiệm rõ ràng để tránh tình trạng né tránh hoặc đổ lỗi vòng quanh khi xảy ra sự cố.
Đại biểu Trần Khánh Thu (Hưng Yên) nêu vấn đề mức phạt tối đa 1 triệu đồng đối với cá nhân được nêu trong dự thảo là “quá thấp và không phù hợp” với mức độ nguy hiểm tiềm ẩn của công nghệ AI. Bà cho rằng mức phạt này không đủ sức răn đe và cần được sửa đổi đồng bộ để luật có hiệu lực thực tiễn.
Đại biểu Phạm Trọng Nghĩa (Lạng Sơn) đưa ra luận điểm pháp lý quan trọng: AI không phải là chủ thể pháp lý và không thể gánh trách nhiệm dân sự hay hình sự. Vì vậy, dự thảo luật cần quy định hệ thống trách nhiệm của ba nhóm: nhà phát triển, nhà cung cấp và bên triển khai. Ông cũng cho rằng dự thảo chưa xác định rõ ai là chủ sở hữu hay người sử dụng hệ thống AI ,trong khi đây là yếu tố bắt buộc để xác định trách nhiệm bồi thường theo Bộ luật Dân sự. Nếu khoảng trống này không được lấp đầy, việc xử lý các vụ việc thực tế sẽ gặp bế tắc.
Liên quan đến các hệ thống AI bị tấn công hoặc bị chiếm quyền điều khiển, một số đại biểu đề nghị dự thảo cần làm rõ tiêu chí thế nào là “đã thực hiện đầy đủ biện pháp an toàn”. Nếu không, quy định miễn trách nhiệm có thể trở thành “lá chắn vô hình” để tránh bồi thường.
Kết luận phiên thảo luận, Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng cho biết tinh thần xuyên suốt của dự luật là AI phải phục vụ con người và không thay thế vai trò quyết định của con người trong các hoạt động quan trọng. Bộ trưởng Nguyễn Mạnh Hùng khẳng định việc gắn nhãn deepfake là bắt buộc để người dân biết khi nào họ đang tương tác với AI.
Về vấn đề trách nhiệm và chế tài, ban soạn thảo đang cân nhắc bỏ quy định phạt theo phần trăm doanh thu để tránh chồng chéo, đồng thời giữ nguyên nguyên tắc bồi thường toàn bộ thiệt hại do hành vi trái pháp luật gây ra, kết hợp với hình thức đình chỉ cung cấp dịch vụ, một chế tài đủ mạnh để răn đe.
Dự thảo Luật Trí tuệ nhân tạo tiếp tục được hoàn thiện trước khi trình Quốc hội xem xét tại kỳ họp tiếp theo.

