hoặc
Vui lòng nhập thông tin cá nhân
hoặc
Vui lòng nhập thông tin cá nhân
Nhập email của bạn để lấy lại mật khẩu
Việc xây dựng hành lang pháp lý cho trí tuệ nhân tạo (AI) đặt ra bài toán lớn là làm sao để vừa khuyến khích đột phá công nghệ, thu hút đầu tư, vừa thiết lập cơ chế kiểm soát rủi ro toàn diện, bảo vệ các nhóm dễ bị tổn thương và đảm bảo trách nhiệm pháp lý rõ ràng.
Cơ chế thử nghiệm có kiểm soát và vòng vây pháp lý đa ngành
Dự thảo Luật Trí tuệ nhân tạo (AI) đang nhận được sự đồng thuận cao từ Quốc hội về cách tiếp cận vừa thân thiện cho sự phát triển, vừa có quy định để hạn chế tối đa các rủi ro. Tuy nhiên, để hiện thực hóa sự thân thiện và kiểm soát rủi ro này, các đại biểu Quốc hội đã chỉ ra nhiều điểm cần được tinh chỉnh sâu sắc.
Việc đưa ra Cơ chế thử nghiệm có kiểm soát (Sandbox) là một điểm sáng, được đánh giá là rất cần thiết bởi AI là lĩnh vực mới, không thể phát triển chỉ dựa trên khuôn khổ pháp lý hiện hành.
Tuy nhiên, đại biểu Hoàng Minh Hiếu (Nghệ An) đã nêu lên một băn khoăn rất logic: phạm vi được miễn trừ trong Cơ chế thử nghiệm chỉ giới hạn trong quy định của Luật AI, trong khi các hệ thống AI, đặc biệt là các ứng dụng rủi ro cao như xe tự lái, lại liên quan mật thiết đến nhiều luật khác như Luật trật tự an toàn giao thông đường bộ và Luật bảo vệ dữ liệu cá nhân.
Do đó, đại biểu kiến nghị, cơ quan soạn thảo cần chỉnh lý quy định theo hướng xác định rõ tổ chức, cá nhân tham gia thử nghiệm có kiểm soát được miễn hoặc giảm một số nghĩa vụ tuân thủ không chỉ tại Luật AI mà còn tại các luật khác có liên quan. Nếu không có sự miễn trừ đa ngành này, các doanh nghiệp phát triển hệ thống AI rủi ro cao, nhất là các startup, sẽ rất ngại thử nghiệm vì chỉ một tai nạn nhỏ cũng đủ dẫn đến phá sản.
Để giải quyết nỗi lo này và khuyến khích tinh thần đổi mới sáng tạo, Quốc hội cũng đề nghị nghiên cứu, bổ sung cơ chế hỗ trợ cho các tổ chức, cá nhân tham gia thử nghiệm để phòng chống rủi ro. Điều này có thể là cơ chế hỗ trợ bảo hiểm trách nhiệm trước khi tiến hành thử nghiệm, hoặc nhà nước hỗ trợ một phần ngân sách qua các loại Quỹ để chia sẻ gánh nặng rủi ro tài chính.
Bên cạnh đó, lo lắng về rủi ro đạo đức và xã hội cũng được nhấn mạnh. Đại biểu Phạm Văn Hòa (Đồng Tháp) đề nghị bổ sung yêu cầu đánh giá tác động đạo đức - xã hội ngay từ giai đoạn thiết kế hệ thống, dưới dạng báo cáo bắt buộc. Đây là yêu cầu phù hợp với chuẩn quốc tế, giúp dự báo rủi ro từ sớm, bảo vệ các nhóm dễ bị tổn thương và nâng cao trách nhiệm giải trình của nhà phát triển.
Còn Đại biểu Phạm Trọng Nghĩa (Lạng Sơn) còn cảnh báo về những rủi ro lạm dụng AI có thể xâm phạm chủ quyền quốc gia hoặc giảm hiệu lực quản trị công, vì thế kiến nghị bổ sung một điều quy định về hành vi bị nghiêm cấm lạm dụng AI trong khu vực công.
Minh bạch pháp lý và phân loại rủi ro trong lĩnh vực nhạy cảm
Trọng tâm của Luật AI là phải tạo ra sự cân bằng giữa thúc đẩy đổi mới sáng tạo với phòng ngừa, hạn chế rủi ro và bảo vệ người sử dụng. Sự cần thiết của khung pháp lý rõ ràng nhất được thể hiện trong các lĩnh vực nhạy cảm, điển hình là y tế.
Đại biểu Trần Khánh Thu (Hưng Yên) nhận định AI không chỉ giúp tối ưu hóa quy trình, giảm tải công việc cho y bác sĩ mà còn đóng vai trò quan trọng trong việc cá nhân hóa điều trị. Tuy nhiên, bất cập hiện nay là sự thiếu vắng một khung pháp lý cụ thể và đầy đủ dành riêng cho ứng dụng AI trong y tế.
Đại biểu dẫn chứng một trường hợp bệnh nhân bị tổn thương não, đột quỵ do con gái cho uống thuốc theo đơn của “bác sĩ AI” kê đơn, đặt ra câu hỏi cấp bách: Trách nhiệm pháp lý thuộc về ai? Các luật hiện hành như Luật Khám bệnh, chữa bệnh 2023 hay Luật Dược 2016 chưa điều chỉnh rõ ràng về sản phẩm ứng dụng AI.
Các sản phẩm AI phục vụ khám chữa bệnh hiện vẫn phải tuân theo quy trình cấp phép chung dành cho thiết bị y tế, nhưng thiếu các tiêu chuẩn và quy định riêng về bảo mật dữ liệu y tế, bảo đảm an toàn cho bệnh nhân, và đặc biệt là trách nhiệm pháp lý trong trường hợp AI mắc sai sót. Đại biểu kỳ vọng Luật AI sẽ có thêm điều khoản khung pháp lý cụ thể để quản lý các sản phẩm AI trong y tế, làm rõ trách nhiệm của các bên liên quan.
Vấn đề phân loại rủi ro cũng được thảo luận sâu. Đại biểu đề nghị cơ quan soạn thảo cần nghiên cứu bổ sung phụ lục minh họa về các cấp độ rủi ro của hệ thống AI, tương tự như Annex III của EU AI Act. Phụ lục này cần có các tiêu chí định lượng rõ ràng như mức độ tự chủ, quy mô người dùng, ảnh hưởng đến quyền cơ bản, hoặc lĩnh vực nhạy cảm (giáo dục, y tế, tư pháp, hạ tầng, việc làm).
Việc phân loại rủi ro rõ ràng bằng tiêu chí định lượng là căn cứ để áp dụng các biện pháp kiểm soát phù hợp, không làm chậm lại sự phát triển của AI rủi ro thấp, nhưng siết chặt kiểm soát đối với AI rủi ro cao.
Dự thảo Luật Trí tuệ nhân tạo đang đứng trước cơ hội lịch sử để kiến tạo một hành lang pháp lý thông minh. Để thành công, luật cần phải là một công cụ cân bằng, nơi cơ chế thử nghiệm có kiểm soát được mở rộng để loại bỏ rào cản đa ngành, trách nhiệm pháp lý và đạo đức được xác định minh bạch từ giai đoạn thiết kế và hệ thống phân loại rủi ro được định lượng hóa, đặc biệt trong các lĩnh vực nhạy cảm như y tế. Việc này sẽ đảm bảo AI thực sự trở thành động lực phát triển mới, trong khi vẫn giữ vững lá chắn bảo vệ an toàn cho người dùng và xã hội.