Việc Quốc hội thông qua Luật Trí tuệ Nhân tạo vào ngày 10/12/2025 là một cột mốc quan trọng trong chiến lược quản trị số quốc gia. Việt Nam trở thành một trong số ít quốc gia ban hành đạo luật toàn diện về AI ở giai đoạn rất sớm, chỉ sau EU với AI Act. Tham vọng chính sách là rõ ràng: kiểm soát rủi ro, bảo vệ xã hội và định hình trật tự mới cho công nghệ trí tuệ nhân tạo.
Tuy nhiên, khi phân tích kỹ văn bản luật dưới góc độ kỹ thuật và so sánh với thông lệ quốc tế, một câu hỏi lớn đặt ra: liệu chúng ta đang xây dựng nền tảng cho đổi mới sáng tạo, hay vô tình tạo ra một “compliance trap” – bẫy tuân thủ – kìm hãm chính hệ sinh thái AI nội địa?
Dưới đây là ba điểm nghẽn mang tính cấu trúc mà theo tôi, nếu không được điều chỉnh, có thể gây tác động dài hạn đến startup và năng lực cạnh tranh công nghệ của Việt Nam.
Thứ nhất, sự “nhân hóa” sai lệch trong định nghĩa AI. Luật mô tả AI có khả năng “hiểu”, “nhận thức”, “suy luận” – những khái niệm mang tính nhận thức luận của con người. Về mặt kỹ thuật, AI hiện đại vận hành trên nền tảng xác suất thống kê và tối ưu hàm mục tiêu, không có ý chí hay nhận thức. Việc gán cho máy móc các thuộc tính con người không chỉ sai về bản chất công nghệ, mà còn gây rối loạn khi quy kết trách nhiệm pháp lý, đặc biệt là yếu tố lỗi chủ quan (mens rea), mở ra nguy cơ con người “ẩn mình” sau thuật toán.
Thứ hai, rủi ro bóp nghẹt việc phát triển mô hình ngôn ngữ lớn (LLM) nội địa. Điều 7 của Luật nghiêm cấm việc thu thập dữ liệu trái với pháp luật sở hữu trí tuệ, trong khi Việt Nam chưa có cơ chế ngoại lệ tương đương với “Text and Data Mining” hay “Fair Use” như EU, Mỹ hoặc Nhật Bản. Hệ quả là các startup AI trong nước có thể đối mặt với rủi ro pháp lý nghiêm trọng nếu tự thu thập dữ liệu để huấn luyện mô hình, buộc phải phụ thuộc vào công nghệ và dữ liệu của Big Tech nước ngoài thay vì làm chủ chuỗi giá trị AI.
Thứ ba, gánh nặng tuân thủ đi kèm ảo tưởng về khả năng kiểm soát công nghệ. Yêu cầu đánh giá sự phù hợp và giải trình nguyên lý đối với các hệ thống rủi ro cao đang tạo ra một nghịch lý kỹ thuật: mô hình càng tiên tiến (deep learning) thì càng khó giải thích. Việc áp đặt nghĩa vụ “giải trình tuyệt đối” có thể buộc các lĩnh vực như y tế phải sử dụng mô hình kém chính xác hơn chỉ để dễ giải thích, từ đó làm tăng rủi ro chẩn đoán sai – đi ngược lại chính mục tiêu bảo vệ con người.

