Luật trí tuệ nhân tạo (Luật AI) vừa được Quốc hội thông qua, tạo nền tảng pháp lý mới cho hoạt động AI tại Việt Nam. Đáng chú ý, luật bổ sung nhiều quy định liên quan đến gắn nhãn nội dung do AI tạo ra, phân loại rủi ro và trách nhiệm pháp lý.
Luật trí tuệ nhân tạo xác định rõ các hành vi bị cấm
Luật trí tuệ nhân tạo quy định rõ các hành vi bị nghiêm cấm. Mục tiêu chính của quy định này là bảo vệ an ninh quốc gia và quyền con người.
Cụ thể, luật không cho phép chiếm đoạt hoặc lợi dụng hệ thống AI để vi phạm pháp luật. Đồng thời, hành vi giả mạo hình ảnh, giọng nót bằng AI cũng bị xử lý nghiêm. Những hành vi này có thể gây hậu quả nghiêm trọng cho xã hội.
Bên cạnh đó, Luật trí tuệ nhân tạo cấm việc thu thập hoặc sử dụng dữ liệu trái pháp luật. Quy định này áp dụng cho quá trình huấn luyện và vận hành hệ thống AI. Qua đó, luật tăng cường bảo vệ dữ liệu cá nhân, sở hữu trí tuệ và an ninh mạng.

Bắt buộc gắn nhãn nội dung do AI tạo ra
Gắn nhãn nội dung do AI sản ra là điểm mới quan trọng của Luật trí tuệ nhân tạo. Quy định này giúp người dùng phân biệt nội dung thật và nội dung do AI tạo ra.
Theo quy định, âm thanh, hình ảnh và video do AI tạo ra hoặc chỉnh sửa phải được gắn nhãn rõ ràng. Yêu cầu này áp dụng khi nội dung mô phỏng ngoại hình, giọng nói của người thật hoặc tái hiện sự kiện thực tế. Nhờ đó, nguy cơ lừa đảo và thao túng thông tin được hạn chế.
Tuy nhiên, đối với các tác phẩm điện ảnh, nghệ thuật hoặc sáng tạo, việc gắn nhãn được áp dụng linh hoạt. Cách thực hiện phải phù hợp và không ảnh hưởng đến trải nghiệm thưởng thức của công chúng.
Phân loại rủi ro hệ thống AI để quản lý phù hợp
Quy định việc phân loại hệ thống AI theo mức rủi ro. Cụ thể, hệ thống AI được chia thành ba nhóm gồm rủi ro thấp, trung bình và cao.
Trên cơ sở đó, cơ quan quản lý áp dụng nghĩa vụ giám sát phù hợp với từng nhóm. Cách tiếp cận này giúp kiểm soát chặt chẽ các hệ thống AI có nguy cơ cao. Đồng thời, các ứng dụng AI thông thường vẫn được tạo điều kiện phát triển.
xem thêm tại: https://cafef.vn/luu-y-4-diem-khong-the-bo-qua-cua-luat-tri-tue-nhan-tao-sap-co-hieu-luc-188260104105529451.chn

Trách nhiệm pháp lý khi hệ thống AI gây thiệt hại
Liên quan đến trách nhiệm, luật quy định rõ các hình thức xử lý vi phạm. Theo đó, tổ chức, cá nhân vi phạm có thể bị xử phạt hành chính hoặc truy cứu trách nhiệm hình sự.
Ngay cả khi hệ thống AI rủi ro cao được vận hành đúng quy định, trách nhiệm vẫn được đặt ra nếu phát sinh thiệt hại. Trong trường hợp này, bên triển khai phải bồi thường cho người bị ảnh hưởng theo pháp luật dân sự.
Nguồn: Người lao động