Bảo mật AI agent đang chuyển từ một nỗi lo lý thuyết thành vấn đề vận hành thật. Báo cáo được Help Net Security tóm tắt ngày 13/03/2026 cho thấy Claude Code, OpenAI Codex và Google Gemini đều tạo ra lỗ hổng trong phần lớn pull request khi được giao xây ứng dụng thực tế.
Nếu anh em đang dùng AI để tăng tốc lập trình, điểm cần nhớ không phải là “có nên dùng hay không”, mà là dùng với guardrails nào. Agent có thể viết code nhanh, nhưng nó cũng rất hay quên những thứ boring mà bảo mật lại sống chết vì chúng: kiểm tra quyền truy cập, state của OAuth, rate limiting, secret JWT, và xác thực cho WebSocket.

Vì sao chủ đề này đang trend?
Ba tuần gần đây, nội dung về AI coding agents phủ kín cộng đồng dev: từ workflow nhiều agent, MCP, đến việc agent được giao mở repo, sửa code, chạy test và mở PR gần như tự động. Blog của Chaiko cũng vừa có bài về OpenAI Agents SDK hỗ trợ MCP và các nền tảng agent như NVIDIA NemoClaw là gì.
Nhưng càng đẩy AI agent vào production, team càng sớm đụng một câu hỏi cũ: ai sẽ chịu trách nhiệm cho phần code nhìn có vẻ đúng nhưng thực ra mở cửa cho tấn công? Đó là lý do “bảo mật AI agent” trở thành keyword đáng theo dõi trong 2026.
Nghiên cứu nói gì?
Theo bài tổng hợp từ Help Net Security, nhóm nghiên cứu dùng ba agent phổ biến để xây hai ứng dụng thực tế theo workflow lặp chuẩn. Kết quả: 26 trên 30 pull request có ít nhất một lỗ hổng, tương đương khoảng 87%. Tổng cộng có 143 vấn đề bảo mật được phát hiện qua 38 lượt scan.
- Broken access control: endpoint nhạy cảm thiếu xác thực hoặc phân quyền.
- Business logic flaw: tin vào dữ liệu client cho score, balance, unlock state.
- OAuth sai state: thiếu state parameter, account linking lỏng lẻo.
- WebSocket thiếu auth: REST có middleware nhưng kênh nâng cấp WebSocket lại bị bỏ quên.
- Rate limiting chỉ khai báo cho có: middleware tồn tại nhưng không được mount thật.
- JWT secret yếu: hardcoded secret hoặc fallback secret dễ đoán.
Vì sao AI agent hay mắc các lỗi này?
Điểm yếu không nằm ở chuyện model “dốt”, mà ở chỗ nó tối ưu theo xác suất hoàn thành task. Khi prompt nói “làm login”, “làm leaderboard”, hay “thêm social login”, agent thường ưu tiên đường đi ngắn nhất để tính năng chạy được trước. Những lớp phòng thủ âm thầm như server-side validation, policy enforcement, token rotation hay brute-force protection không phải lúc nào cũng được ưu tiên nếu prompt, template repo và quy trình review không ép buộc.
Nói ngắn: AI agent rất giỏi hoàn thành happy path, nhưng lại dễ bỏ sót negative path và trust boundary. Đó cũng là chỗ mà scanner kiểu regex truyền thống hay hụt, vì nhiều lỗi nằm ở luồng nghiệp vụ chứ không nằm ở một API call “xấu” rõ ràng.

Checklist thực chiến khi dùng AI coding agents
Nếu team đang đẩy mạnh agentic coding, đây là checklist nên bật ngay thay vì chờ có sự cố:
- Scan từng PR, không chỉ scan bản cuối. Lỗi bảo mật tích lũy dần theo feature.
- Viết security requirements ngay trong spec. Ví dụ: mọi endpoint ghi dữ liệu phải có auth + rate limit + audit log.
- Tách prompt theo role. Một agent viết tính năng, một agent khác review bảo mật hoặc review policy.
- Không tin client. Mọi điểm, hạn mức, quyền và trạng thái thanh toán đều phải xác nhận phía server.
- Ép agent dùng secret manager. Cấm fallback secret hardcoded trong code hoặc sample env.
- Review WebSocket, queue worker, cron và webhook riêng. Đây là các đường agent rất hay bỏ sót authentication.
- Giữ con người ở chốt merge. Agent có thể đề xuất patch, nhưng merge production vẫn cần reviewer hiểu threat model.
Nên xem AI agent là gì trong pipeline?
Đừng xem agent như senior engineer biết tự chịu trách nhiệm. Hợp lý hơn là xem nó như một thực tập sinh tăng lực: rất nhanh, làm được nhiều việc, nhưng phải đặt trong hệ thống có rule chặt. Ở góc độ này, bài toán không phải “thay dev”, mà là thiết kế pipeline để dev kiểm soát được tốc độ mà không đánh đổi an toàn.
Nếu đang tìm workflow nhiều agent, anh em có thể đọc thêm bài NemoClaw vs OpenClaw để hình dung cách so sánh nền tảng agent hiện nay, rồi quay lại chuẩn hóa checklist bảo mật cho repo của mình. Ngoài ra, Kho bài viết của blog cũng là nơi tiện để rà các bài liên quan trước khi dựng policy nội bộ.
3 guardrails tối thiểu tôi khuyên bật ngay
1. Security acceptance criteria trong prompt
Đừng chỉ ghi “xây API login”. Hãy ghi rõ: bắt buộc rate limiting, state cho OAuth, refresh token có revocation, password reset phải một lần dùng. Khi điều kiện chấp nhận đủ rõ, agent sẽ ít bỏ sót hơn.
2. Contextual scanning thay vì chỉ grep pattern
Nhiều lỗi của agent là lỗi logic. Vì vậy cần công cụ hiểu luồng dữ liệu, quyền truy cập, trust boundary và middleware mount thực tế; chỉ dựa vào pattern-based SAST là chưa đủ.
3. Repo template an toàn mặc định
Nếu starter repo đã có auth middleware, validation schema, secret manager, logging và test bảo mật cơ bản, agent sẽ có xu hướng tiếp tục đi đúng đường. Môi trường mặc định tốt quan trọng hơn prompt dài.

Kết luận
AI coding agents đang giúp dev ship nhanh hơn thật, nhưng tốc độ không tự sinh ra bảo mật. Dữ liệu mới nhất cho thấy ngay cả những agent mạnh như Claude Code, Codex và Gemini vẫn lặp lại các lỗi bảo mật rất cũ khi không được ràng buộc đúng cách.
Vì vậy, keyword bảo mật AI agent đáng để theo dõi không phải vì nó giật gân, mà vì nó phản ánh một thay đổi rất thực: từ giờ, bảo mật không chỉ review code do người viết, mà còn phải review code do agent tạo ra. Team nào coi agent là một thành viên pipeline có giới hạn rõ ràng sẽ đi nhanh mà ít trả giá hơn.
Theo dõi Tý Tech trên Facebook để xem bản rút gọn và update nhanh mỗi ngày.
FAQ
AI coding agent có nên dùng trong production không?
Có, nhưng chỉ nên dùng khi đã có PR review, scan bảo mật, test hồi quy và guardrails rõ ràng.
Loại lỗi nào agent hay tạo ra nhất?
Thường là phân quyền sai, xác thực thiếu ở endpoint phụ, business logic tin client, OAuth thiếu state và rate limiting không được nối vào app thật.
Làm sao giảm rủi ro nhanh nhất?
Hãy scan từng PR, ép security requirements vào spec, dùng template repo an toàn mặc định, và giữ reviewer con người ở bước merge.
