Theo dự thảo, Danh mục hệ thống AI có rủi ro cao được xây dựng dựa trên việc đánh giá các tiêu chí phân loại rủi ro đối với từng trường hợp sử dụng cụ thể, bảo đảm rõ ràng, minh bạch và khả thi trong triển khai.
Một hệ thống AI được đưa vào danh mục khi đáp ứng các nguyên tắc như: Kết quả đầu ra được sử dụng làm căn cứ hoặc yếu tố có ảnh hưởng đáng kể đến quyết định liên quan đến quyền, nghĩa vụ, lợi ích hợp pháp của tổ chức, cá nhân; được xác định theo mục đích và bối cảnh sử dụng, không chỉ dựa vào công nghệ, thuật toán hay mô hình; và có nguy cơ gây hậu quả nghiêm trọng, khó khắc phục nếu xảy ra sai lệch hoặc sự cố.
Bên cạnh đó, các hệ thống có phạm vi triển khai rộng, tác động trên diện lớn; rủi ro không thể kiểm soát đầy đủ bằng các quy định pháp luật hiện hành; và có thể áp dụng thống nhất nghĩa vụ quản lý cũng thuộc diện xem xét.

Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao được xác định trên cơ sở đánh giá các tiêu chí phân loại rủi ro để xác định các trường hợp sử dụng cụ thể.
Dự thảo xác định 5 nhóm tiêu chí làm căn cứ phân loại:
Thứ nhất, tác động đến quyền con người và quyền, lợi ích hợp pháp của tổ chức, cá nhân. Bao gồm các hệ thống có khả năng ảnh hưởng trực tiếp, đáng kể đến quyền sống, quyền được bảo vệ sức khỏe, quyền tự do cá nhân, quyền riêng tư, quyền bình đẳng, không phân biệt đối xử, quyền tiếp cận dịch vụ thiết yếu và các quyền hợp pháp khác theo quy định pháp luật.
Thứ hai, liên quan đến an toàn, an ninh và lợi ích công cộng là các hệ thống có thể gây ảnh hưởng nghiêm trọng đến trật tự, an toàn xã hội, an ninh mạng, an toàn thông tin; có nguy cơ bị lạm dụng, thao túng xâm phạm an ninh quốc gia; hoặc được sử dụng như thành phần bảo đảm an toàn trong các sản phẩm, hàng hóa có mức độ rủi ro cao.
Thứ ba, lĩnh vực và bối cảnh sử dụng. Dự thảo đặc biệt lưu ý các hệ thống AI được triển khai trong lĩnh vực thiết yếu hoặc có ảnh hưởng trực tiếp đến đời sống xã hội như: y tế, giáo dục, lao động việc làm, tài chính, tín dụng, bảo hiểm, giao thông, năng lượng, hạ tầng thiết yếu, quản lý nhà nước, tư pháp; hoặc phục vụ hoạt động quản lý nhà nước và cung cấp dịch vụ công.
Thứ tư, mức độ tự động hóa và vai trò kiểm soát của con người. Bao gồm các hệ thống tự động đưa ra quyết định hoặc khuyến nghị có ảnh hưởng đáng kể; đồng thời xem xét khả năng giám sát, can thiệp, điều chỉnh hoặc dừng hệ thống của con người trong quá trình vận hành.
Thứ năm, phạm vi người sử dụng và quy mô ảnh hưởng. Căn cứ vào số lượng người bị tác động trực tiếp hoặc gián tiếp; phạm vi triển khai; khả năng gây hiệu ứng dây chuyền; và mức độ hậu quả kéo dài, khó khắc phục nếu xảy ra sự cố hoặc bị lạm dụng.
Trên cơ sở các tiêu chí trên, dự thảo đề xuất Danh mục hệ thống AI có rủi ro cao gồm 4 nhóm:
Nhóm I: Hệ thống AI tác động đến quyền con người.
Nhóm II: Hệ thống AI ảnh hưởng đến an toàn, an ninh.
Nhóm III: Hệ thống AI trong các lĩnh vực thiết yếu, liên quan mật thiết đến lợi ích công cộng.
Nhóm IV: Hệ thống AI có quy mô ảnh hưởng lớn hoặc hậu quả khó khắc phục.
Việc ban hành Danh mục được kỳ vọng tạo nền tảng pháp lý quan trọng để quản lý, giám sát và kiểm soát rủi ro trong phát triển, triển khai AI; đồng thời bảo đảm cân bằng giữa thúc đẩy đổi mới sáng tạo và bảo vệ quyền, lợi ích chính đáng của người dân, tổ chức và xã hội.
Toàn văn dự thảo đang được lấy ý kiến rộng rãi để hoàn thiện trước khi trình cấp có thẩm quyền xem xét, quyết định.

