Dự thảo nguyên tắc và một số hướng dẫn về trí tuệ nhân tạo có trách nhiệm ở Việt Nam đang được xây dựng và lấy ý kiến chuyên gia. Tại buổi hội thảo góp ý dự thảo do trường Đại học Luật, Đại học Quốc gia Hà Nội, tổ chức sáng 12/12 Thứ trưởng Bùi Thế Duy cho biết dự án xây dựng quy tắc AI được phát triển từ năm 2023 trong bối cảnh Việt Nam còn mơ hồ về khái niệm này.
Sau một năm bộ quy tắc được hoàn thiện với các hướng dẫn đi kèm. "Bộ quy tắc sẽ tạo nền tảng pháp lý cho sự phát triển AI có trách nhiệm và đáng tin cậy", Thứ trưởng Duy nói.
Đại diện chương trình Aus4Innovation, TS Kim Wimbush, cho biết Aus4Innovation đã đồng hành và hỗ trợ Việt Nam thực hiện Chiến lược quốc gia về trí tuệ nhân tạo đến 2030, trong đó nổi bật là dự án xây dựng bộ nguyên tắc AI có trách nhiệm. Mục tiêu đảm bảo AI tại Việt Nam được phát triển dựa trên các nguyên tắc trách nhiệm, đáp ứng tiêu chuẩn an toàn và mang lại lợi ích chung.
Theo PGS.TS Nguyễn Thị Quế Anh, Trưởng nhóm nghiên cứu, dự án được thực hiện từ tháng 10/2023 đến 10/2024 với sự tham gia của nhóm chuyên gia từ Đại học Luật, ĐHQGHN. Bộ quy tắc được xây dựng dưới dạng "luật mềm", mang tính linh hoạt nhưng "đủ sức sống để đưa ra các thảo luận chính sách, đảm bảo sự phát triển AI đáng tin cậy, đủ lợi ích lâu dài", PGS Quế Anh nói.
Bộ quy tắc bao gồm 7 nguyên tắc và hướng dẫn: bền vững, an toàn, bảo mật; bảo vệ quyền riêng tư và dữ liệu cá nhân; minh bạch và giải thích được; công bằng; tôn trọng quyền tự chủ, quyền tự quyết của cá nhân; trách nhiệm giải trình; cơ chế xử lý phản hồi, khiếu nại và khắc phục thỏa đáng.
Trong đó nguyên tắc bảo vệ quyền riêng tư và dữ liệu cá nhân tập trung vào khía cạnh pháp luật, PGS Quế Anh nói. AI thuật toán có thể thu thập, xử lý và sử dụng thông tin cá nhân không chỉ để cải thiện trải nghiệm người dùng mà còn cho nhiều mục tiêu khác, yêu cầu phải được kiểm soát chặt chẽ.
Nguyên tắc minh bạch và giải thích: nguyên tắc này hướng dẫn tăng cường độ tin cậy giữa các liên kết bên trong, đồng thời hỗ trợ quản trị nội bộ.
Nguyên tắc công bằng: bảo vệ người dùng đều có cơ hội tiếp cận và hưởng lợi từ AI, đặc biệt là các nhóm dễ bị tổn thương.
Nguyên tắc tôn trọng quyền tự chủ và tự động quyết định: ngăn chặn sự phụ thuộc vào AI hoặc sử dụng AI để thao túng quyết định của người khác, đồng thời bảo vệ các giá trị truyền thống và đạo đức.
Nguyên tắc đảm nhiệm giải trình: xác định rõ trách nhiệm của con người trong từng giai đoạn của hệ thống vòng đời AI.
Nguyên tắc cơ chế xử lý phản hồi và khiếu nại: cung cấp kênh cho người dùng phản hồi, yêu cầu xem xét lại quy trình vận hành và kết quả đầu ra của hệ thống AI.
Với mỗi nguyên tắc nói trên đều có các hướng dẫn cụ thể cho cả 3 đối tượng áp dụng gồm: nhà phát triển, nhà triển khai và người dùng cuối.
TS Nguyễn Bích Thảo, đồng trưởng nhóm nghiên cứu cho biết, bộ nguyên tắc lấy giá trị con người làm trung tâm, thúc đẩy phát triển bền vững, bảo tồn và phát huy các giá trị văn hóa - đạo đức - xã hội truyền thống Việt Nam, đồng thời hài hòa giữa đổi mới sáng tạo và quản lý rủi ro.
Tuy nhiên, một số đại biểu tại hội thảo lưu ý cần tránh chồng chéo với các quy định pháp luật hiện hành. Ông Nguyễn Phương Tuấn, Phó Chủ tịch Ủy ban Khoa học, Công nghệ và Môi trường Quốc hội, đề xuất dự thảo phải phù hợp với tiêu chuẩn quốc tế và tạo cơ sở pháp lý rõ ràng sau khi có luật Công nghiệp công nghệ số.
TS Chu Thị Hoa, Phó Viện trưởng Viện Chiến lược và Khoa học pháp lý (Bộ Tư pháp) cho rằng nên duy trì bộ quy tắc dưới dạng "quy định phần mềm" để linh hoạt áp dụng và tránh trở thành rào cản pháp lý trong giai đoạn đầu triển khai.
Các chuyên gia nhận định việc hoàn thiện quy tắc không chỉ khẳng định vai trò tiên phong của Việt Nam trong quản lý AI mà còn mở ra cơ hội để công nghệ này đóng góp tích cực vào những lĩnh vực quan trọng của quốc gia.
Nhật Minh