Khoa học & Công nghệ

Không giao "vũ khí tối thượng" nhà thầu bị Mỹ liệt vào danh sách đen

Anthropic bị liệt vào danh sách các tổ chức gây “rủi ro chuỗi cung ứng đối với an ninh quốc gia” khi không đồng ý để chính phủ Mỹ toàn quyền truy cập AI Claude.

Tổng thống Mỹ Donald Trump đã đưa Anthropic vào danh sách đen do công ty này phản đối việc sử dụng công nghệ của mình cho mục đích giám sát đại trà và vũ khí tự động hóa.

Từ một nhà thầu bỗng chốc bị "cấm cửa"

Bộ trưởng Chiến tranh Hoa Kỳ Pete Hegseth đã chính thức xác định công ty trí tuệ nhân tạo Anthropic là “rủi ro chuỗi cung ứng đối với an ninh quốc gia”, sau khi Tổng thống Donald Trump ra lệnh cấm toàn bộ các cơ quan liên bang hợp tác với công ty này.

trump-anthropic-inc-2262896304.jpg
Ông Trump đưa Anthropic vào danh sách đen vì không hợp tác trong việc dùng AI giám sát diện rộng và vũ khí tự động hóa.

Ông Hegseth công bố quyết định vào ngày thứ Sáu, cáo buộc Anthropic cố gắng áp đặt các ràng buộc về ý thức hệ lên hoạt động quân sự của Mỹ, sau khi công ty này từ chối gỡ bỏ các biện pháp bảo vệ hạn chế việc sử dụng hệ thống trí tuệ nhân tạo của mình cho mục đích giám sát đại trà và vũ khí tự động hóa hoàn toàn.

“Mục tiêu thực sự của họ là không thể nhầm lẫn: giành quyền phủ quyết đối với các quyết định tác chiến của quân đội Hoa Kỳ,” ông Hegseth tuyên bố trên mạng xã hội. “Điều đó là không thể chấp nhận được... Bộ Chiến tranh phải có quyền truy cập đầy đủ, không hạn chế vào các mô hình của Anthropic cho mọi mục đích hợp pháp nhằm bảo vệ Cộng hòa. Tôi chỉ đạo Bộ Chiến tranh xác định Anthropic là Rủi ro Chuỗi cung ứng đối với An ninh Quốc gia... Quyết định này là cuối cùng,” ông Hegseth nhấn mạnh.

Việc xác định này sẽ cấm bất kỳ nhà thầu, nhà cung cấp hoặc đối tác nào đang làm việc với quân đội Mỹ tham gia hoạt động thương mại với Anthropic, qua đó mở rộng đáng kể phạm vi ảnh hưởng vượt ra ngoài Lầu Năm Góc. Các quan chức quốc phòng cho biết Anthropic sẽ được phép tiếp tục cung cấp dịch vụ trong tối đa sáu tháng để các hệ thống quân sự có thời gian chuyển đổi sang nhà cung cấp thay thế.

Động thái này diễn ra sau chỉ thị toàn diện của ông Trump, yêu cầu các cơ quan liên bang ngừng sử dụng công nghệ của Anthropic sau khi công ty này từ chối yêu cầu của Lầu Năm Góc về việc dỡ bỏ các giới hạn hợp đồng liên quan đến cách triển khai mô hình AI chủ lực của họ, Claude.

Khi AI tạo ra "vũ khí tối thượng"

Từ tháng 12 năm 2025 đến tháng 1 năm 2026, một kẻ tấn công không rõ danh tính đã lợi dụng chatbot AI phổ biến này để tự động hóa các cuộc tấn công mạng nhằm vào nhiều cơ quan của Mexico, thu giữ 150GB dữ liệu nhạy cảm bao gồm hồ sơ cử tri, thông tin nhân viên và hồ sơ đăng ký dân sự.

Vụ tấn công này nghe giống như một giấc mơ kỳ lạ trong thể loại cyberpunk, nhưng phương pháp thực hiện lại đơn giản đến đáng sợ. Tin tặc đã bẻ khóa Claude bằng cách ngụy trang các yêu cầu độc hại thành một chương trình bảo mật "tìm lỗi", thuyết phục trí tuệ nhân tạo này đóng vai trò là một "tin tặc ưu tú". Sau khi bị đánh lừa, Claude đã tạo ra hàng nghìn kế hoạch tấn công chi tiết với các kịch bản sẵn sàng thực thi, chỉ rõ mục tiêu và thông tin đăng nhập cần thiết.

Vụ việc này cho thấy, nếu không có những giới hạn và sự kiểm soát, AI Claude của Anthropic có thể làm được những điều không tưởng là tấn công và kiểm soát bất cứ hệ thống thông tin nào.

Claude AI của Anthropic có thể tận dụng mọi lỗ hổng để tấn công bất cứ hệ thống thông tin nào.

Anthropic vẫn giữ vững hai giới hạn không thể thương lượng: cấm giám sát đại trà trong nước và cấm vũ khí tự động hóa hoàn toàn hoạt động mà không có sự kiểm soát thực chất của con người.

Tuy nhiên, đối với Mỹ, một khi "vũ khí tối thượng" như vậy được tạo ra, không được chính phủ kiểm soát thì đó hẳn là một "thiếu sót không thể chấp nhận".

Các quan chức Lầu Năm Góc cho rằng những biện pháp bảo vệ này có thể làm giảm tính linh hoạt trong các tình huống khủng hoảng quân sự.

Việc xác định “rủi ro chuỗi cung ứng” – vốn thường chỉ áp dụng cho các công ty có liên hệ với đối thủ nước ngoài – đánh dấu một bước đi chưa từng có đối với một công ty công nghệ có trụ sở tại Mỹ, vốn đóng vai trò sâu rộng trong các hoạt động an ninh quốc gia.

Anthropic là nhà phát triển AI thương mại đầu tiên và duy nhất triển khai các mô hình ngôn ngữ tiên tiến trên các mạng lưới mật của Lầu Năm Góc theo hợp đồng trị giá lên tới 200 triệu USD. Các hệ thống của công ty đã hỗ trợ phân tích tình báo và lập kế hoạch tác chiến quân sự, bao gồm cả cuộc đột kích nhằm vào Tổng thống Venezuela Nicolas Maduro.

Không giống các phần mềm bảo mật truyền thống vốn dựa trên việc đối chiếu code với danh sách các lỗ hổng đã biết, Claude Code Security đọc và lý giải mã nguồn theo cách mà một chuyên gia bảo mật con người thực thụ sẽ làm.

Nó sẽ theo dõi luồng dữ liệu, hiểu cách các thành phần tương tác với nhau, và phát hiện những lỗ hổng tinh vi trong logic nghiệp vụ mà các công cụ thông thường thường bỏ qua.

Mỗi phát hiện đều trải qua quy trình xác minh nhiều tầng trước khi đến tay người phân tích, kèm theo đánh giá mức độ nghiêm trọng và điểm tin cậy, giúp đội ngũ kỹ thuật ưu tiên xử lý các vấn đề quan trọng nhất trước. Toàn bộ quá trình vẫn cần sự phê duyệt của con người, Claude Code Security tìm ra vấn đề và gợi ý giải pháp, nhưng quyết định cuối cùng luôn thuộc về lập trình viên.

FBI bẻ khóa điện thoại của tay súng ám sát ông Trump.
Theo RT
back to top