Luật Trí tuệ nhân tạo: Trao quyền sáng tạo gắn với trách nhiệm

<p style="text-align: justify;">Trong kỷ nguyên số, trí tuệ nhân tạo không chỉ là công nghệ, mà là nền tảng định hình lại cách con người học tập, làm việc và quản trị xã hội. Việc xây dựng <span data-start="624" data-end="659" style="">Luật Trí tuệ nhân tạo (Luật AI)</span> không chỉ nhằm bảo đảm an ninh mạng, mà còn là <span data-start="707" data-end="733" style="">khung pháp lý tổng thể</span> để AI phát triển một cách an toàn, có trách nhiệm và vì con người.</p>

Luật Trí tuệ nhân tạo: Trao quyền sáng tạo nhưng phải gắn với trách nhiệm - Ảnh 1.

Khuyến khích sáng tạo, an toàn

Theo Viện Công nghệ số và Chuyển đổi số quốc gia, đơn vị chủ trì xây dựng Luật cho biết, triết lý xuyên suốt của Luật AI Việt Nam là "khuyến khích sáng tạo nhưng không đánh đổi an toàn". Luật không bó buộc công nghệ, nhưng cũng không để công nghệ vượt khỏi tầm kiểm soát. Để làm được điều này, Việt Nam định hướng áp dụng chiến lược "ba lớp phòng thủ thông minh", hài hòa giữa khuyến khích đổi mới và bảo vệ lợi ích quốc gia, xã hội, cụ thể: 

Quản lý theo mức độ, không cấm đoán tuyệt đối: thay vì phân chia AI thành "hợp pháp" hay "bị cấm", Luật AI sẽ tiếp cận dựa trên mức độ rủi ro – một hướng đi hiện đại đang được Liên minh châu Âu (EU) và Singapore áp dụng. Cách tiếp cận này giống như hệ thống giao thông: xe đạp, xe máy hay xe tải đều được lưu thông, nhưng mỗi loại có quy tắc riêng về an toàn. Theo đó, AI rủi ro thấp (như chatbot học tập, phần mềm dịch ngôn ngữ, ứng dụng sáng tạo nội dung) sẽ được tạo điều kiện tối đa để phát triển. Các nhà phát triển được khuyến khích thử nghiệm, sáng tạo, miễn tuân thủ nguyên tắc minh bạch dữ liệu và bảo vệ người dùng. Trong khi đó, AI rủi ro cao – những hệ thống có thể ảnh hưởng đến sức khỏe, tài chính, quyền riêng tư hoặc an ninh quốc gia – sẽ chịu sự kiểm soát chặt chẽ hơn. Các sản phẩm này phải được cấp phép, đánh giá rủi ro trước khi vận hành và chịu giám sát thường xuyên sau khi đưa vào sử dụng.

Thiết kế hệ thống có khả năng tự bảo vệ: an toàn, trong kỷ nguyên AI, không thể chỉ là phần "phụ kiện" gắn thêm sau khi công nghệ ra đời. Bộ KH&CN cho rằng, mọi hệ thống AI rủi ro cao phải được thiết kế an toàn ngay từ giai đoạn đầu – "an toàn từ trong trứng nước". Điều này có nghĩa là, trước khi đưa ra thị trường, các sản phẩm AI bắt buộc phải trải qua quy trình kiểm định nghiêm ngặt về dữ liệu, thuật toán và năng lực phòng ngừa rủi ro. Nhà phát triển phải chứng minh được hệ thống của mình không tạo ra thiên vị dữ liệu, không xâm phạm quyền riêng tư, không tự sinh ra nội dung độc hại hoặc gây hiểu nhầm cho người dùng. Bộ cũng đang xem xét đề xuất cơ chế "đánh giá đạo đức và an toàn AI" – một bước tương tự như kiểm định an toàn sản phẩm y tế hoặc thiết bị điện tử. Chỉ khi đáp ứng đầy đủ tiêu chí về kỹ thuật, an ninh mạng và bảo vệ dữ liệu, hệ thống AI mới được phép triển khai rộng rãi.

Giám sát liên tục – Chế tài nghiêm khắc: một trong những thách thức lớn nhất của AI hiện nay là tính "hộp đen" – hoạt động nội bộ của thuật toán khó giải thích và kiểm soát. Vì vậy, Luật AI Việt Nam sẽ đưa ra yêu cầu giám sát liên tục với các hệ thống có tác động lớn đến cộng đồng. Theo định hướng, mọi hệ thống AI quan trọng sẽ phải có cơ chế ghi nhận và báo cáo hoạt động định kỳ, đảm bảo cơ quan chức năng có thể yêu cầu giải trình khi xảy ra sự cố hoặc phát hiện rủi ro. Đồng thời, việc công bố nguồn dữ liệu huấn luyện và phương thức xử lý thông tin cá nhân cũng là điều kiện bắt buộc để tăng tính minh bạch. Song song, Luật cũng sẽ áp dụng chế tài mạnh nhằm răn đe các hành vi lạm dụng AI. Những vi phạm như sử dụng AI để tấn công mạng, thao túng dư luận, phát tán tin giả, tạo nội dung khiêu khích hoặc xâm phạm danh dự cá nhân có thể bị xử lý bằng các mức phạt tài chính lớn, thậm chí trách nhiệm hình sự nếu gây hậu quả nghiêm trọng.

Gắn với trách nhiệm cụ thể: Từ "quản lý" đến "dẫn dắt"

Xây dựng Luật AI là "cởi mở nhưng có kiểm soát". Nhà nước sẽ trao cho nhà phát triển một "bộ dụng cụ mạnh mẽ", gồm các quy định khuyến khích nghiên cứu, thử nghiệm, sandbox pháp lý (không gian thử nghiệm có kiểm soát) và cơ chế bảo hộ sở hữu trí tuệ cho sản phẩm AI.

Nhưng song song, các chủ thể phải tuân thủ "bản hướng dẫn sử dụng an toàn": tôn trọng đạo đức, minh bạch dữ liệu, chịu trách nhiệm về sản phẩm và hậu quả mà AI tạo ra. Đây chính là tinh thần của mô hình "AI có trách nhiệm" (Responsible AI) đang được nhiều quốc gia theo đuổi – coi công nghệ là công cụ phục vụ con người chứ không chi phối con người.

Theo các chuyên gia, nếu được thiết kế hợp lý, Luật AI không chỉ giúp Việt Nam bảo đảm an ninh mạng, mà còn tạo dựng niềm tin xã hội đối với công nghệ mới – yếu tố quan trọng để AI được chấp nhận và ứng dụng rộng rãi trong mọi lĩnh vực, từ giáo dục, y tế, tài chính đến quản trị nhà nước.

Một điểm đáng chú ý là, thay vì chỉ quản lý, Việt Nam hướng tới vai trò dẫn dắt và kiến tạo hệ sinh thái AI quốc gia. Luật AI sẽ gắn liền với các chiến lược lớn như Chiến lược dữ liệu quốc gia, Chiến lược an ninh mạng, Chiến lược chuyển đổi số quốc gia đến năm 2030, nhằm tạo môi trường thuận lợi để các doanh nghiệp, viện nghiên cứu và trường đại học cùng tham gia phát triển AI an toàn, nhân văn.

Luật không phải rào cản, mà là bệ phóng để AI phát triển đúng hướng – bảo đảm rằng đổi mới sáng tạo của Việt Nam không chỉ nhanh, mà còn vững chắc, có đạo đức và đáng tin cậy.

Trí tuệ nhân tạo đang mở ra kỷ nguyên mới, nơi cơ hội và rủi ro song hành. Với chiến lược ba lớp phòng thủ, Luật AI Việt Nam đang hướng tới mục tiêu kép: bảo vệ an ninh mạng và khơi thông sáng tạo.

"Khuyến khích sáng tạo, nhưng sáng tạo phải đi đôi với trách nhiệm". Đó chính là con đường để Việt Nam xây dựng một nền AI an toàn, nhân văn và vì con người, góp phần hiện thực hóa khát vọng quốc gia số, phát triển bền vững và thịnh vượng trong thời đại mới./.