
Một bước đi quan trọng trong lộ trình hoàn thiện khung pháp lý về trí tuệ nhân tạo (AI) vừa được Bộ Khoa học và Công nghệ triển khai, khi cơ quan này chính thức yêu cầu các bộ, ngành và địa phương đề xuất Danh mục hệ thống AI có rủi ro cao. Động thái này được thể hiện tại Công văn số 1101/BKHCN-CNS&CĐS ban hành ngày 3/3/2026, nhằm cụ thể hóa các quy định của Luật Trí tuệ nhân tạo 2025 và chuẩn bị cho việc ban hành các văn bản hướng dẫn thi hành.
Theo yêu cầu của Bộ Khoa học và Công nghệ, việc xây dựng danh mục phải bám sát các quy định trong Luật Trí tuệ nhân tạo 2025 (số 134/2025/QH15), đặc biệt là các nội dung tại Điều 9 và Điều 14, đồng thời tuân thủ Luật Ban hành văn bản quy phạm pháp luật. Đây được xem là cơ sở pháp lý quan trọng để xác định những hệ thống AI có khả năng gây ra tác động đáng kể, từ đó áp dụng cơ chế kiểm soát phù hợp trước khi đưa vào thực tế.
Động thái trên cũng nằm trong khuôn khổ triển khai nhiệm vụ được Thủ tướng Chính phủ giao tại Quyết định số 2835/QĐ-TTg năm 2025, liên quan đến việc ban hành danh mục và phân công cơ quan chủ trì soạn thảo các văn bản quy định chi tiết thi hành luật, nghị quyết đã được Quốc hội khóa XV thông qua tại Kỳ họp thứ 10. Trên cơ sở đó, Bộ Khoa học và Công nghệ đã chủ trì, phối hợp với các cơ quan liên quan để xây dựng dự thảo Quyết định của Thủ tướng về Danh mục hệ thống AI có rủi ro cao.
Không chỉ dừng lại ở việc xác định các hệ thống có mức độ rủi ro lớn, Bộ còn yêu cầu các đơn vị đề xuất thêm danh mục những hệ thống AI bắt buộc phải được chứng nhận sự phù hợp trước khi đưa vào sử dụng. Việc đề xuất này được thực hiện theo các biểu mẫu cụ thể (Biểu mẫu 01 và Biểu mẫu 02) tại Phụ lục I kèm theo Công văn, nhằm đảm bảo tính thống nhất và thuận tiện trong quá trình tổng hợp, đánh giá.
Theo nội dung dự thảo Nghị định quy định chi tiết thi hành Luật Trí tuệ nhân tạo, Danh mục hệ thống AI rủi ro cao sẽ được xây dựng dựa trên các quy định tại Điều 7 và Điều 8 của dự thảo. Cụ thể, khoản 1 Điều 7 nêu rõ danh mục này do Thủ tướng Chính phủ ban hành, bao gồm hai nhóm chính: các hệ thống AI được xác định là có rủi ro cao và các hệ thống bắt buộc phải trải qua quy trình chứng nhận sự phù hợp trước khi được đưa vào vận hành.
Trong quá trình xây dựng và hoàn thiện danh mục, Bộ Khoa học và Công nghệ đóng vai trò đầu mối, chịu trách nhiệm phối hợp với các bộ, cơ quan ngang bộ để trình Thủ tướng xem xét ban hành hoặc điều chỉnh khi cần thiết. Điều này cho thấy cơ chế quản lý AI tại Việt Nam đang được thiết kế theo hướng linh hoạt, có thể cập nhật theo sự phát triển nhanh chóng của công nghệ.
Luật Trí tuệ nhân tạo 2025 cũng đã đưa ra cách tiếp cận phân loại rủi ro rõ ràng đối với các hệ thống AI. Theo Điều 3 của luật, các hệ thống này được chia thành ba nhóm dựa trên mức độ tác động. Trong đó, nhóm rủi ro cao bao gồm những hệ thống có thể gây thiệt hại đáng kể đến tính mạng, sức khỏe con người, quyền và lợi ích hợp pháp của tổ chức, cá nhân, cũng như ảnh hưởng đến lợi ích quốc gia, lợi ích công cộng và an ninh quốc gia.
Ở cấp độ thấp hơn, các hệ thống AI rủi ro trung bình được xác định là có khả năng gây nhầm lẫn hoặc tác động đến hành vi người dùng, đặc biệt trong trường hợp người sử dụng không nhận biết được rằng họ đang tương tác với hệ thống AI hoặc nội dung do AI tạo ra. Trong khi đó, nhóm rủi ro thấp bao gồm các hệ thống không thuộc hai nhóm nêu trên.
Việc phân loại này không chỉ dựa trên mức độ nguy cơ mà còn căn cứ vào nhiều tiêu chí khác như phạm vi ảnh hưởng, số lượng người sử dụng, lĩnh vực ứng dụng, đặc biệt là các lĩnh vực thiết yếu hoặc liên quan trực tiếp đến lợi ích công cộng cũng như mức độ tác động đến quyền con người, an toàn và an ninh.
Việc khẩn trương xây dựng Danh mục hệ thống AI rủi ro cao là bước đi cần thiết trong bối cảnh công nghệ trí tuệ nhân tạo đang phát triển mạnh mẽ và ngày càng thâm nhập sâu vào nhiều lĩnh vực của đời sống. Đây không chỉ là công cụ quản lý mà còn là nền tảng để đảm bảo AI được phát triển và ứng dụng theo hướng an toàn, minh bạch và có trách nhiệm.