Lực lượng quân sự Mỹ sử dụng AI Claude trong cuộc bắt giữ Tổng thống Venezuela, gây tranh luận về đạo đức và quy định
Vào ngày 12 tháng 1 năm 2026, lực lượng quân sự Mỹ đã thực hiện một cuộc tấn công loại bỏ đầu trong cuộc bắt giữ Tổng thống Venezuela cựu Tổng thống Nicolás Maduro. Có报道称 trong cuộc tấn công này, họ đã sử dụng công cụ trí tuệ nhân tạo Claude của Anthropic, một hệ thống bị cấm tham gia vào bạo lực, giám sát hoặc phát triển vũ khí, gây ra những lo ngại đáng kể về đạo đức và quy định.
Bộ Quốc phòng Mỹ đã từ chối bình luận, trong khi một nhà phát ngôn của Anthropic cho biết công ty không bình luận về các triển khai cụ thể, nhấn mạnh rằng mọi hoạt động phải tuân thủ chính sách của họ và được thực hiện thông qua các đối tác được phê duyệt. Hệ thống này có thể được truy cập thông qua hợp tác với Palantir Technologies (PLTR-US).
Hợp đồng bí mật có giá trị lên đến 2 tỷ USD đã được ký vào mùa hè năm 2025. Trước đó, có những báo cáo cho biết chính quyền từng cân nhắc hủy bỏ thỏa thuận do sự phản đối về các rủi ro của AI trong các ứng dụng quân sự và giám sát nội địa. Áp lực bên trong Anthropic, do Dario Amodei, Chủ tịch điều hành, đã gia tăng đối với việc tăng cường giám sát và quy định. Điều này xảy ra sau những phát biểu của Thượng tướng Pete Hegseth, Bộ trưởng Quốc phòng, cho biết quân đội sẽ không sử dụng các mô hình AI bị cấm tham gia vào chiến tranh; đồng thời, căng thẳng với chính quyền trước đây về các hạn chế về quy định và xuất khẩu của các chip AI cũng gia tăng. Ngoài ra, OpenAI cũng đã gia nhập nền tảng Gemini của Google, cung cấp dịch vụ phân tích tài liệu, tạo báo cáo và hỗ trợ nghiên cứu cho khoảng 300.000 nhân viên của quân đội Mỹ.