Bạn có đang dùng Claude để viết code? Hãy cẩn thận. Mới đây, các chuyên gia an ninh mạng đã đưa ra những cảnh báo đanh thép về việc mô hình AI đình đám của Anthropic đang tạo ra những mã nguồn "đầy rẫy lỗ hổng".
Vào tháng 3, TrustedSec (một "ông lớn" về bảo mật tại Ohio) vẫn còn tin dùng Claude Opus để tăng tốc phát triển ứng dụng. Thế nhưng hiện tại, họ đã chính thức nói lời chia tay. Dave Kennedy, cựu phân tích viên NSA và là CEO của TrustedSec, cho biết chất lượng mã nguồn của Claude đã giảm tới 47.3% so với thời điểm mới ra mắt.
"Nó tệ đến mức không thể sử dụng nổi,"
Không chỉ là cảm nhận cá nhân, dữ liệu từ công ty bảo mật Veracode cũng cho thấy những kết quả đáng lo ngại. Khi thực hiện 80 tác vụ lập trình:
- Claude Opus 4.7: Gây ra lỗi bảo mật trong 52% trường hợp.
- Claude Sonnet 4.5: Tỉ lệ lỗi là 50%.
- Trong khi các mô hình của OpenAI (như GPT-4) có kết quả tốt hơn hẳn với tỉ lệ lỗi chỉ khoảng 30%.
Một nghịch lý đang xảy ra: AI càng nhanh hơn, thông minh hơn trong việc tạo ra mã nguồn chạy được, thì lại càng lơ là việc giữ cho mã nguồn đó an toàn. Boris Cherny từ Anthropic thừa nhận họ đã chủ động giảm "mức độ tư duy" của Claude từ mức Cao xuống Trung bình để tiết kiệm tài nguyên (token) và tăng tốc độ xử lý theo phản hồi của người dùng. Nhưng có vẻ như, cái giá của sự nhanh chóng chính là sự an toàn của hệ thống.
AI là công cụ hỗ trợ tuyệt vời, nhưng đừng bao giờ phó mặc hoàn toàn cho chúng. Nếu bạn là một lập trình viên, hãy luôn kiểm tra lại (double-check) mọi dòng code mà AI tạo ra trước khi đưa vào sử dụng thực tế.


