Đài phát thanh và truyền hình TP Hồ Chí Minh đã phỏng vấn Luật sư Nguyễn Thanh Hà – chủ tịch công ty luật SBLAW về Luật trí tuệ nhân tạo của Việt Nam. SBLAW trân trọng giới thiệu nội dung bài phỏng vấn:

Câu hỏi: Thưa ông, Việt Nam đã chính thức có các quy định pháp lý về trí tuệ nhân tạo từ ngày 01/03/2026. Ông đánh giá ý nghĩa của bước đi này như thế nào trong bối cảnh AI đang phát triển rất nhanh?
Trả lời: Tôi cho rằng đây là một “cột mốc vàng” cho hạ tầng pháp lý số của Việt Nam. Trong bối cảnh AI phát triển với tốc độ vũ bão, việc có Luật AI không chỉ giúp chúng ta thoát khỏi tình trạng “quản lý đuổi theo công nghệ” mà còn tạo ra một hành lang an toàn. Nó khẳng định vị thế của Việt Nam trên bản đồ công nghệ thế giới, tạo niềm tin cho các nhà đầu tư quốc tế khi họ biết rằng quyền sở hữu trí tuệ và dữ liệu tại đây được bảo hộ bằng luật định rõ ràng.
Câu hỏi: Những điểm mới đáng chú ý nhất trong các quy định về AI lần này là gì, đặc biệt so với các quy định pháp luật trước đây?
Luật trí tuệ nhân tạo năm 2025 (có hiệu lực từ 01/03/2026), lần đầu tiên khẳng định tại Điều 4 các nguyên tắc cơ bản trong hoạt động trí tuệ nhân tạo, theo đó:
(i) Lấy con người làm trung tâm; bảo đảm quyền con người, quyền riêng tư, lợi ích quốc gia, lợi ích công cộng và an ninh quốc gia; tuân thủ Hiến pháp và pháp luật;
(ii)Trí tuệ nhân tạo phục vụ con người, không thay thế thẩm quyền và trách nhiệm của con người. Bảo đảm duy trì sự kiểm soát và khả năng can thiệp của con người đối với mọi quyết định và hành vi của hệ thống trí tuệ nhân tạo; an toàn hệ thống, an ninh dữ liệu và bảo mật thông tin; khả năng kiểm tra và giám sát quá trình phát triển và vận hành hệ thống trí tuệ nhân tạo:
(iii) Bảo đảm công bằng, minh bạch, không thiên lệch, không phân biệt đối xử và không gây hại cho con người hoặc xã hội; tuân thủ chuẩn mực đạo đức và giá trị văn hóa Việt Nam; thực hiện trách nhiệm giải trình về các quyết định và hệ quả của hệ thống trí tuệ nhân tạo;
(iv) Thúc đẩy phát triển trí tuệ nhân tạo xanh, bao trùm và bền vững; khuyến khích phát triển và ứng dụng các công nghệ trí tuệ nhân tạo theo hướng sử dụng hiệu quả năng lượng, tiết kiệm tài nguyên và giảm tác động tiêu cực đến môi trường.

Luật mới có những điểm mới mang tính đột phá, đánh dấu sự thay đổi tư duy quản lý từ “khuyến khích phát triển” sang “phát triển đi đôi với kiểm soát rủi ro”, cụ thể gồm 06 điểm mới cơ bản như sau:
(1) Cách tiếp cận dựa trên rủi ro
Đây là điểm khác biệt lớn nhất so với các văn bản trước đây (vốn chỉ mang tính định hướng hoặc quy định chung về công nghệ thông tin). Luật AI 2025 phân loại hệ thống AI thành 4 cấp độ:
- Rủi ro không thể chấp nhận được: Các hệ thống gây nguy hại đến an ninh quốc gia, thao túng hành vi con người hoặc chấm điểm xã hội (Social Scoring) sẽ bị cấm hoàn toàn.
- Rủi ro cao: Áp dụng cho AI trong y tế, giáo dục, tư pháp, tuyển dụng. Các hệ thống này phải trải qua quy trình đánh giá tác động và đăng ký nghiêm ngặt trước khi ra thị trường.
- Rủi ro hạn chế: Các hệ thống như chatbot, AI tạo hình ảnh phải tuân thủ nghĩa vụ minh bạch.
- Rủi ro thấp/không đáng kể: Được khuyến khích tự nguyện tuân thủ các quy tắc đạo đức.
(2) Định danh pháp lý và Quyền của “Chủ thể dữ liệu AI”
Trước đây, các quy định về AI thường nằm rải rác trong Luật Công nghệ thông tin hay Luật An toàn thông tin mạng. Luật trí tuệ nhân tạo mới lần đầu tiên ghi nhận:
- Đưa ra định nghĩa chính thức về Hệ thống AI, AI tạo sinh và Hệ thống AI đa mục đích.
- Xác lập quyền của người dùng: Quyền được biết (khi đang tương tác với AI) và Quyền được giải thích (yêu cầu doanh nghiệp giải thích lý do AI đưa ra một quyết định ảnh hưởng đến quyền lợi cá nhân).
(3) Nghĩa vụ minh bạch và Gắn nhãn nội dung AI
Để đối phó với vấn nạn Deepfake và tin giả, Luật trí tuệ nhân tạo 2025 quy định:
- Mọi sản phẩm do AI tạo ra (văn bản, hình ảnh, âm thanh, video) có độ chân thực cao đều bắt buộc phải được gắn nhãn (watermark kỹ thuật số hoặc thông báo rõ ràng).
- Các nền tảng cung cấp AI tạo sinh phải có công cụ để người dùng và cơ quan chức năng truy xuất nguồn gốc nội dung.
(4) Cơ chế Sandbox (Khung quản lý thử nghiệm)
So với các quy định pháp luật có phần “cứng nhắc” trước đây, Luật Luật trí tuệ nhân tạo 2025 thiết lập một không gian thử nghiệm pháp lý (Sandbox), theo đó
- Các doanh nghiệp đổi mới sáng tạo được phép thử nghiệm các mô hình AI mới trong một phạm vi và thời gian giới hạn dưới sự giám sát của Bộ Khoa học và Công nghệ, ngay cả khi các quy định hiện hành chưa kịp cập nhật.
- Điều này giúp doanh nghiệp giảm bớt gánh nặng tuân thủ trong giai đoạn nghiên cứu (R&D) mà vẫn đảm bảo không gây hại cho cộng đồng.
(5) Quản trị dữ liệu và Bản quyền trong kỷ nguyên AI
Luật giải quyết “điểm nghẽn” về bản quyền vốn rất mơ hồ trong Luật Sở hữu trí tuệ cũ:
- Dữ liệu huấn luyện: Quy định rõ việc sử dụng dữ liệu có bản quyền để huấn luyện AI phải có sự đồng ý của chủ sở hữu hoặc tuân theo các ngoại lệ luật định.
- Sản phẩm do AI tạo ra: Xác định rõ ràng ai là chủ sở hữu quyền tác giả đối với sản phẩm có sự hỗ trợ của AI (ưu tiên bảo hộ sự sáng tạo của con người thay vì công nhận AI là tác giả).
(6) Trách nhiệm pháp lý xuyên suốt chuỗi cung ứng
Khác với trước đây thường chỉ quy định trách nhiệm của người sử dụng cuối cùng, Luật AI 2025 phân định rõ trách nhiệm của:
- Nhà phát triển: Phải đảm bảo tính an toàn, bảo mật và chính xác của thuật toán.
- Bên triển khai: Phải chịu trách nhiệm về cách thức vận hành và giám sát con người đối với hệ thống AI trong thực tế.
Như vậy, Luật AI 2025 không còn coi AI là một công cụ phần mềm thông thường mà xem đó là một đối tượng quản lý đặc thù. Sự thay đổi này giúp Việt Nam tương thích với các tiêu chuẩn quốc tế (như EU AI Act), tạo điều kiện cho các doanh nghiệp công nghệ trong nước vươn ra toàn cầu.
Câu hỏi: Với người dùng bình thường, luật mới sẽ tác động như thế nào đến quyền riêng tư và việc bảo vệ dữ liệu cá nhân khi sử dụng các ứng dụng AI?

Trả lời: Với người dùng, Luật AI 2025 là “lá chắn” vững chắc hơn. Kết hợp với Luật Bảo vệ dữ liệu cá nhân 2025, luật mới quy định người dùng có quyền được giải thích. Nếu một thuật toán AI từ chối hồ sơ vay vốn hay đánh giá thấp năng lực của bạn, bạn có quyền yêu cầu đơn vị vận hành giải thích cơ chế đưa ra quyết định đó. Điều này ngăn chặn sự “độc tài của thuật toán”.
Câu hỏi: Các doanh nghiệp đang ứng dụng AI sẽ phải tuân thủ những yêu cầu pháp lý mới nào để tránh rủi ro?
Trả lời: Doanh nghiệp không còn có thể coi AI là một “hộp đen”. Họ phải tuân thủ:
- Đánh giá tác động (AIA): Đặc biệt là các doanh nghiệp trong lĩnh vực tài chính, y tế, giáo dục.
- Quản trị dữ liệu đầu vào: Đảm bảo dữ liệu huấn luyện không vi phạm bản quyền và không chứa các định kiến gây phân biệt đối xử.
- Lưu trữ nhật ký hệ thống: Để phục vụ việc truy xuất nguồn gốc khi có sự cố xảy ra.
Câu hỏi: Nếu một hệ thống AI gây ra thiệt hại – ví dụ đưa ra quyết định sai hoặc tạo nội dung sai lệch – thì trách nhiệm pháp lý sẽ thuộc về ai?
Trả lời: Đây là vấn đề cốt lõi. Luật quy định trách nhiệm theo chuỗi giá trị:
- Nhà phát triển: Chịu trách nhiệm nếu lỗi nằm ở thiết kế hệ thống hoặc thuật toán.
- Bên triển khai: Chịu trách nhiệm nếu sử dụng AI sai mục đích hoặc không tuân thủ các khuyến cáo vận hành. Nguyên tắc chung là con người phải giữ quyền kiểm soát cuối cùng. Không thể đổ lỗi hoàn toàn cho “máy tính”, luôn phải có một pháp nhân hoặc cá nhân chịu trách nhiệm bồi thường dân sự hoặc hình sự tùy mức độ.
Câu hỏi: Có ý kiến cho rằng việc quản lý AI quá sớm có thể kìm hãm đổi mới sáng tạo. Quan điểm của ông về vấn đề này ra sao?
Trả lời: Quan điểm của tôi là ngược lại: Quản lý đúng cách chính là thúc đẩy. Giống như việc lắp phanh cho một chiếc xe đua không phải để nó đi chậm lại, mà để tài xế tự tin chạy nhanh hơn trên những khúc cua nguy hiểm.
Luật AI tạo ra “sân chơi bình đẳng”, giúp các startup nhỏ không bị chèn ép bởi các ông lớn công nghệ nắm giữ độc quyền dữ liệu và thuật toán thiếu minh bạch.
Câu hỏi: Theo ông, các doanh nghiệp Việt Nam hiện nay đã sẵn sàng để đáp ứng các quy định này chưa?

Trả lời: Thực tế là các doanh nghiệp lớn (như các tập đoàn viễn thông, ngân hàng) đã chuẩn bị từ sớm. Tuy nhiên, các doanh nghiệp vừa và nhỏ (SMEs) vẫn còn khá lúng túng. Nhiều đơn vị đang ứng dụng AI “hồn nhiên” mà chưa lường trước các rủi ro về bản quyền và bảo mật. Thời gian tới sẽ là giai đoạn “chuyển mình” đầy thử thách, nhưng bắt buộc phải thực hiện đồng thời cũng là cơ hội phát triển trong thời đại mới công nghệ mới như hiện nay, tầm vóc của doanh nghiệp có thể phát triển với tốc độ vô cùng nhanh và hiệu suất sản xuất kinh doanh có thể tăng gấp bội.
Câu hỏi: Trong thời gian tới, pháp luật về AI tại Việt Nam cần tiếp tục hoàn thiện theo hướng nào để vừa kiểm soát rủi ro, vừa thúc đẩy đổi mới?
Trả lời: Chúng ta cần tiếp tục cụ thể hóa các tiêu chuẩn kỹ thuật trong các văn bản pháp luật. AI thay đổi theo từng giờ, do đó tôi cho rằng việc hoàn thiện và xây dựng pháp luật trong mảng này cần có tính mở, đặc biệt là cơ chế Sandbox (khung quản lý thử nghiệm có kiểm soát), theo đó cần có các quy định cho phép các doanh nghiệp thử nghiệm các mô hình AI đột phá trong một không gian có kiểm soát trước khi đưa ra thị trường đại trà.
Câu hỏi: Ông có khuyến nghị gì dành cho doanh nghiệp và người dùng khi tiếp cận AI trong bối cảnh pháp lý mới?

Trả lời:
– Đối với doanh nghiệp: Hãy xây dựng trí tuệ nhân tạo AI một cách có chiều sâu và cạnh tranh để đáp ứng tính hiệu quả của hoạt động kinh doanh, tận dụng các lợi thế từ AI mang lại nhưng phải có quy trình và đáp ứng tuân thủ đầy đủ, chặt chẽ các quy định của pháp luật.
– Đối với người dùng: Hãy là “người dùng thông thái”. Luôn kiểm chứng thông tin từ AI, chủ động bảo vệ dữ liệu cá nhân và đừng ngần ngại lên tiếng khi cảm thấy quyền lợi của mình bị xâm phạm bởi các các nền tảng từ trí tuệ nhân tạo. Đồng thời hãy tham vấn ý kiến Luật sư khi sử dụng những nền tảng hoặc có nguy cơ bị xâm phạm quyền lợi ngay từ ban đầu.
