CHUYÊN TRANG VĂN HOÁ – DI SẢN – LỊCH SỬ - DU LỊCH

TÔN VINH CỘI NGUỒN - KẾT NỐI THỜI ĐẠI

Theo dõi chúng tôi trên các nền tảng

Công nghệ

Lộ tài liệu nội bộ của Anthropic, hé lộ mô hình AI có khả năng tấn công mạng

Nam Phong 29/03/2026 10:29 GMT+7

vtv8.vtv.vn - Một sự cố kỹ thuật tại Anthropic đã khiến nhiều tài liệu nội bộ bị truy cập công khai, qua đó tiết lộ sự tồn tại của mô hình AI mới với năng lực đáng chú ý trong lĩnh vực an ninh mạng.

Một lỗi kỹ thuật tại công ty khởi nghiệp trí tuệ nhân tạo Anthropic đã vô tình làm rò rỉ các tài liệu nội bộ, trong đó có thông tin về một mô hình AI mới được cho là có khả năng vượt trội trong lĩnh vực an ninh mạng.

Lộ tài liệu nội bộ của Anthropic, hé lộ mô hình AI có khả năng tấn công mạng- Ảnh 1.

Theo trang công nghệ Pháp 01net, ngày 26/3, sự cố xuất phát từ hệ thống quản lý nội dung (CMS) của Anthropic, khiến một số tài liệu và bản nháp chiến lược có thể bị truy cập công khai thông qua các đường dẫn không được bảo vệ.

Vụ việc được phát hiện sau khi các nhà nghiên cứu an ninh mạng và tạp chí Fortune đưa ra cảnh báo. Dù lỗi đã nhanh chóng được khắc phục, những tài liệu bị lộ đã hé mở về một mô hình AI mới mang tên Claude Mythos.

Theo nội dung rò rỉ, Claude Mythos – có tên mã nội bộ là Capybara – được đánh giá là phiên bản nâng cấp với hiệu năng vượt trội so với các mô hình trước đó của Anthropic như Claude Opus 4.6. Các thử nghiệm nội bộ cho thấy mô hình này đạt kết quả cao trong các bài kiểm tra về tư duy học thuật và lập trình phức tạp.

Đáng chú ý, Claude Mythos được thiết kế với khả năng phân tích chuyên sâu trong lĩnh vực an ninh mạng, bao gồm việc phát hiện và đánh giá các lỗ hổng trong hệ thống phần mềm.

Trước đây, các mô hình AI đã có thể hỗ trợ nhận diện điểm yếu bảo mật, nhưng theo tài liệu bị lộ, Claude Mythos còn có thể đề xuất các phương án khai thác mang tính thực tiễn. Điều này làm dấy lên lo ngại về nguy cơ bị lợi dụng cho các hoạt động tấn công mạng nếu không được kiểm soát chặt chẽ.

Trước những rủi ro tiềm ẩn, Anthropic cho biết chưa có kế hoạch triển khai rộng rãi mô hình này trong thời gian gần. Hiện quyền truy cập chỉ được cấp giới hạn cho một số tổ chức trong chương trình thử nghiệm, chủ yếu phục vụ nghiên cứu và lĩnh vực an ninh.

Động thái này được xem là nhằm giảm thiểu nguy cơ lạm dụng, đồng thời tạo điều kiện đánh giá kỹ lưỡng tác động của công nghệ trước khi mở rộng ứng dụng.

Sự cố cũng cho thấy những thách thức ngày càng lớn của ngành công nghiệp AI trong việc cân bằng giữa đổi mới công nghệ và đảm bảo an toàn. Trong bối cảnh các mô hình AI ngày càng mạnh, việc xây dựng cơ chế kiểm soát, đánh giá rủi ro và sử dụng có trách nhiệm được xem là yếu tố then chốt trong thời gian tới.

Bình luận

0

Bạn cần đăng nhập để thực hiện chức năng này!

Bình luận không đăng nhập

Bạn không thể gửi bình luận liên tục.
Xin hãy đợi 60 giây nữa.