CHUYÊN TRANG VĂN HOÁ – DI SẢN – LỊCH SỬ - DU LỊCH

TÔN VINH CỘI NGUỒN - KẾT NỐI THỜI ĐẠI

Theo dõi chúng tôi trên các nền tảng

Công nghệ

Xây dựng danh mục AI rủi ro cao: Lấy ý kiến để hoàn thiện khung quản lý

Nam Phong 31/03/2026 11:33 GMT+7

vtv8.vtv.vn - Viện Công nghệ số và Chuyển đổi số quốc gia đang lấy ý kiến các đơn vị thuộc Bộ Khoa học và Công nghệ nhằm xây dựng danh mục hệ thống trí tuệ nhân tạo rủi ro cao, phục vụ việc triển khai Luật Trí tuệ nhân tạo.

Viện Công nghệ số và Chuyển đổi số quốc gia (Viện CNS&CĐS) – đơn vị chủ trì xây dựng dự thảo – vừa gửi văn bản tới các đơn vị thuộc Bộ Khoa học và Công nghệ để lấy ý kiến về danh mục hệ thống trí tuệ nhân tạo (AI) có rủi ro cao. Hoạt động này nhằm bảo đảm việc xây dựng danh mục đạt hiệu quả, phù hợp với đặc thù từng lĩnh vực.

Xây dựng danh mục AI rủi ro cao: Lấy ý kiến để hoàn thiện khung quản lý- Ảnh 1.

Theo đó, các đơn vị sẽ căn cứ vào các quy định dự kiến để đề xuất danh mục hệ thống AI rủi ro cao, bao gồm các nội dung như lĩnh vực áp dụng, tên hệ thống (xác định theo mục đích sử dụng), phạm vi và điều kiện xác định.

Trong lĩnh vực y tế và chăm sóc sức khỏe, một ví dụ được đưa ra là hệ thống hỗ trợ xây dựng phác đồ điều trị hoặc đưa ra quyết định can thiệp y tế xâm lấn. Những hệ thống này có thể được xếp vào nhóm rủi ro cao nếu trực tiếp ra quyết định hoặc thực thi mà không có sự xem xét, phê duyệt độc lập của người hành nghề khám, chữa bệnh.

Bên cạnh đó, Viện cũng lấy ý kiến đối với danh mục các hệ thống AI rủi ro cao cần phải được chứng nhận sự phù hợp trước khi đưa vào sử dụng.

Danh mục hệ thống AI rủi ro cao là một nội dung quan trọng trong việc triển khai Luật Trí tuệ nhân tạo. Theo quy định, các hệ thống AI sẽ được phân loại thành ba mức độ rủi ro: cao, trung bình và thấp. Nhà cung cấp có trách nhiệm tự phân loại trước khi đưa vào sử dụng, dựa trên các hướng dẫn kỹ thuật sẽ được ban hành.

Từ việc phân loại này, luật cũng đưa ra các cơ chế quản lý và thúc đẩy phát triển phù hợp, trong đó đặc biệt chú trọng đến các hệ thống có rủi ro cao.

Trước đó, Bộ Khoa học và Công nghệ đã công bố dự thảo Nghị định quy định chi tiết một số điều và biện pháp thi hành Luật Trí tuệ nhân tạo. Dự thảo lần đầu đưa ra các tiêu chí cụ thể nhằm xác định hệ thống AI có rủi ro cao, làm cơ sở xây dựng danh mục cần kiểm soát chặt chẽ.

Theo dự thảo, một hệ thống AI được coi là rủi ro cao khi có khả năng gây ảnh hưởng đến tính mạng, sức khỏe, tài sản, quyền con người hoặc an ninh quốc gia. Các yếu tố như mức độ tự động hóa, vai trò của AI trong quyết định cuối cùng và khả năng giám sát, can thiệp của con người đều được xem xét.

Ngoài ra, các lĩnh vực có mức độ rủi ro cao khi ứng dụng AI cũng được xác định, gồm y tế, giáo dục, tuyển dụng và việc làm, tài chính – ngân hàng, giao thông vận tải, năng lượng, tư pháp, hạ tầng kỹ thuật trọng yếu và các hoạt động quản lý nhà nước, cung cấp dịch vụ công. Quy mô ảnh hưởng của hệ thống, như số lượng người dùng hoặc mức độ kết nối với hạ tầng quan trọng, cũng là tiêu chí đánh giá.

Tuy nhiên, không phải mọi hệ thống đáp ứng các tiêu chí đều bị xếp vào nhóm rủi ro cao. Dự thảo cũng đưa ra các trường hợp loại trừ, như những hệ thống chỉ thực hiện tác vụ kỹ thuật (thu thập, xử lý, phân loại dữ liệu) mà không trực tiếp đưa ra quyết định ảnh hưởng đến quyền và lợi ích của tổ chức, cá nhân.

Các hệ thống có sự giám sát thực chất của con người – nơi người có thẩm quyền có thể kiểm tra, can thiệp hoặc từ chối quyết định của AI trước khi có hiệu lực – cũng có thể không bị xếp vào nhóm rủi ro cao. Tương tự, các hệ thống phục vụ quản trị nội bộ doanh nghiệp hoặc chỉ đưa ra phân tích, dự báo mang tính tham khảo cũng nằm trong diện được cân nhắc loại trừ.

Bình luận

0

Bạn cần đăng nhập để thực hiện chức năng này!

Bình luận không đăng nhập

Bạn không thể gửi bình luận liên tục.
Xin hãy đợi 60 giây nữa.